Spotify rachète Kinzen pour lutter contre les contenus nocifs

Spotify rachète Kinzen pour lutter contre les contenus nocifs

Spotify rachète Kinzen pour lutter contre les contenus nocifs

La société suédoise vient d’annoncer le rachat de Kinzen, entreprise spécialisée dans la lutte contre les contenus nocifs. Pour ceux qui suivaient de près la vie de Spotify, la nouvelle ne les surprendra pas, car les deux sociétés collaboraient déjà depuis plusieurs années pour cette même raison.

Selon Spotify, le rachat permettra d’exploiter au mieux la technologie de Kinzen et de « mieux tenir compte du contexte local ». Après tout, Spotify diffuse des contenus dans de nombreuses langues.

Selon Kinzen, sa technologie est capable d’analyser des centaines de langues et saurait comprendre les nuances, pour mieux mettre en évidence les contenus présentant une intention de nuire.

Commentaires (42)



“The combination of tools and expert insights is Kinzen’s unique strength that we see as essential to identifying emerging abuse trends in markets and moderating potentially dangerous content at scale,”




Honnêtement, je n’aime pas du tout la tournure de la phrase soulignée. Ils entendent donc faire de la modération à priori sur les podcasts pour retirer les contenus dis “haineux” ou “avec intention de nuire”, ce qui est affreusement vague.



J’ai beau ne pas être consommateur de podcasts (j’utilise Spotify pour la musique, rien d’autre), je trouve ça tout de même assez malsain comme approche. D’ailleurs, cela ne ferait-il pas de Spotify un éditeur s’il modère à priori le contenu ? Cela sous entend une forme de validation du contenu selon des critères établis à mes yeux.


en fait, Spotify essaie simplement de se mettre en conformité avec la loi. L’automatisation est juste indispensable quand on traite des données en masse.


anagrys

en fait, Spotify essaie simplement de se mettre en conformité avec la loi. L’automatisation est juste indispensable quand on traite des données en masse.


Tu veux dire que Spotify a racheté cette société pour respecter une loi uniquement française ?



Et quelle partie précise citée dans l’article NXI de la loi implique un tel outil ?


On en reviens toujours au même, comment arriver à modérer une quantité de contenu toujours plus importante ? Où mettre la limite ?
Impossible de le faire à la main, et de toute façon cela est-il souhaitable ? Être exposé à longueur de journée à du contenu sensible, c’est pas la panacée.



Pour moi ce qu’il manque à toute les plateformes, c’est plus de transparence sur leurs algorithmes de modération, cela devrait être auditable et les données accessible pour pouvoir faire des études d’impact.



Le mode boite noir où l’on a aucune idée de ce qu’il se passe, et des dérives potentielles est problématique.


Pourquoi modérer ?


fred42

Pourquoi modérer ?



  • Par ce que l’incitation à la haine est illégale dans beaucoup de pays.

  • Par ce que la majorité des entreprises privées ne veulent pas favoriser une déstabilisation de la société. (une crise sociale est très mauvaise pour les affaires de beaucoup)

  • Par ce que les podcast disponibles sur la plateforme de spotify influencent son image et ils veulent conserver une image neutre.

  • Par ce que spotify finance ces contenus.



EDIT : Et ils on un financement via la pub, donc ils doivent conserver une bonne image pour les annonceurs (les annonceurs n’aiment pas être associés avec de mauvais contenus)


fred42

Pourquoi modérer ?


Sur la partie podcast, ont ne peu pas laisser n’importe qui dire n’importe quoi, la liberté d’expression, c’est bien beau, mais produire et diffuser du contenu factuellement faux, c’est quand même un problème.
Compter sur le libre arbitre “des gens” pour trier le bon grain de l’ivraie me semble utopique, exercer son esprit critique demande un effort, et force est de constater qu’on aime pas faire d’effort.



Après comme toujours, tout est une question d’équilibre, trop de modération, ce n’est pas bon non plus.



misocard a dit:




  • Par ce que l’incitation à la haine est illégale dans beaucoup de pays.




La modération a priori n’est pas ce que demande la loi généralement, mais il faut répondre rapidement aux demandes de retrait.



Un outil automatique fera toujours des erreurs et supprimera du contenu qui n’est pas interdit.





  • Par ce que la majorité des entreprises privées ne veulent pas favoriser une déstabilisation de la société. (une crise sociale est très mauvaise pour les affaires de beaucoup)




Je ne vois pas le rapport avec la modération.




  • Par ce que les podcast disponibles sur la plateforme de spotify influencent son image et ils veulent conserver une image neutre.



Soit ils sont hébergeurs et ils n’y a aucune raison qu’ils interviennent dans le contenu, soit ils sont éditeurs et je suis OK pour qu’ils contrôlent avant publication, mais il ne s’agit pas de modération.




  • Par ce que spotify finance ces contenus.



Ils sont donc éditeurs et on ne parle plus de modération.




EDIT : Et ils on un financement via la pub, donc ils doivent conserver une bonne image pour les annonceurs (les annonceurs n’aiment pas être associés avec de mauvais contenus)




Ce n’est toujours pas de la modération mais du contrôle de contenu.



Et en passant, on écrit “parce que” en 2 mots, pas 3… :cap:


Sémantique, pour moi modération et contrôle de contenu c’est la même chose.



Je suis peut être dans l’erreur, mais ce site reprend une définition qui me convient :




La modération de contenu consiste à contrôler et filtrer les contenus laissés par les internautes sur le site Internet de la marque, sur les réseaux sociaux ou les plateformes d’intermédiation. Elle s’applique aussi bien sur les contenus textuels que sur les photographies, les vidéos, les liens ou les contenus audio. L’objectif est de maîtriser l’image de marque, et de protéger à la fois la communauté réunie autour de celle-ci, qui pourrait tomber sur ces contenus.




Donc ma réponse concernait une justification pour du contrôle de contenu, je ne saisis pas la différence que tu fais avec la modération, donc je ne peux pas répondre à cette question.


misocard

Sémantique, pour moi modération et contrôle de contenu c’est la même chose.



Je suis peut être dans l’erreur, mais ce site reprend une définition qui me convient :




La modération de contenu consiste à contrôler et filtrer les contenus laissés par les internautes sur le site Internet de la marque, sur les réseaux sociaux ou les plateformes d’intermédiation. Elle s’applique aussi bien sur les contenus textuels que sur les photographies, les vidéos, les liens ou les contenus audio. L’objectif est de maîtriser l’image de marque, et de protéger à la fois la communauté réunie autour de celle-ci, qui pourrait tomber sur ces contenus.




Donc ma réponse concernait une justification pour du contrôle de contenu, je ne saisis pas la différence que tu fais avec la modération, donc je ne peux pas répondre à cette question.


C’est une boîte qui vend du service de modération.
Je suis assez d’accord avec leur définition qui est limitée à la modération de commentaires concernant les produits ou services, les marques. Il ne s’agit pas de contrôler le contenu de podcast comme pour Spotify. Là, je le maintiens, on n’est plus dans la modération mais dans un contrôle éditorial et on devient responsable du contenu n’étant plus hébergeur.


fred42

C’est une boîte qui vend du service de modération.
Je suis assez d’accord avec leur définition qui est limitée à la modération de commentaires concernant les produits ou services, les marques. Il ne s’agit pas de contrôler le contenu de podcast comme pour Spotify. Là, je le maintiens, on n’est plus dans la modération mais dans un contrôle éditorial et on devient responsable du contenu n’étant plus hébergeur.


Il faut vérifier, mais je ne pense pas que spotify se considère comme un simple hébergeur.



Pour ceux qui cherchent à savoir c’est quoi du contenu nocif :



https://www.spotify.com/fr/legal/user-guidelines/
https://www.spotify.com/fr/platform-rules/plain/


misocard

Il faut vérifier, mais je ne pense pas que spotify se considère comme un simple hébergeur.



Pour ceux qui cherchent à savoir c’est quoi du contenu nocif :



https://www.spotify.com/fr/legal/user-guidelines/
https://www.spotify.com/fr/platform-rules/plain/


J’ai essayé de trouver ça sur leur site sans être abonné et je n’ai rien trouvé dans un sens ni dans l’autre.



Patatt a dit:


Sur la partie podcast, ont ne peu pas laisser n’importe qui dire n’importe quoi, la liberté d’expression, c’est bien beau, mais produire et diffuser du contenu factuellement faux, c’est quand même un problème.




Ce qui est un problème est le contenu contraire à la loi. Tout le reste peut être dit, c’est un droit fondamental. Une société privée fait ce qu’elle veut chez elle, mais par pitié, ne pas faire croire que c’est une injonction légale.
Et là, on n’est plus dans la modération mais la suppression de propos illégaux généralement suite à une demande de retrait. La loi n’en demande pas plus.




Compter sur le libre arbitre “des gens” pour trier le bon grain de l’ivraie me semble utopique, exercer son esprit critique demande un effort, et force est de constater qu’on aime pas faire d’effort.




Donc, on compte sur des sociétés privées pour juger ce qu’il faut entendre ? Ça fout la trouille !
Ce genre de filtre n’est pas de la modération mais un travail d’éditeur de contenu.
En plus, ta justification par l’absence d’effort des gens pue fortement.




Après comme toujours, tout est une question d’équilibre, trop de modération, ce n’est pas bon non plus.




On est bien avancé !


La liberté d’expression, de nos jours, c’est dire ce qui plait à la bulle. Si tu dis quelque chose qui ne va pas dans le sens de ce que la bulle pense, tu seras alors condamné par sa vindicte. Et ici dans le cas présent, à priori.



Oui, c’est nul et sectaire.


SebGF

La liberté d’expression, de nos jours, c’est dire ce qui plait à la bulle. Si tu dis quelque chose qui ne va pas dans le sens de ce que la bulle pense, tu seras alors condamné par sa vindicte. Et ici dans le cas présent, à priori.



Oui, c’est nul et sectaire.


C’est pour cela que je m’évertue à semer une autre graine dans les esprits. Parce que même ici, il y a pas mal d’esprits qui sont pour la limitation de la parole.


fred42

C’est pour cela que je m’évertue à semer une autre graine dans les esprits. Parce que même ici, il y a pas mal d’esprits qui sont pour la limitation de la parole.


Oui, le comportement sectaire se constate quotidiennement ici et c’est vraiment désolant. Il faut sortir de sa zone de confort et accepter que des personnes peuvent avoir une opinion différente sans pour autant chercher à les étrangler.



L’entre-soit, c’est nul et ça engendre des gamins consanguins.


fred42

C’est pour cela que je m’évertue à semer une autre graine dans les esprits. Parce que même ici, il y a pas mal d’esprits qui sont pour la limitation de la parole.


C’est un devoir d’alimenter un débat, même avec les gens irrationnels, car c’est comme ça qu’on s’en aperçoit.
Après la difficulté réside dans ceux qui mélangent beaucoup de choses.
La gangrène, c’est de présenter comme complotiste les gens qui ne sont pas d’accord avec vous.



fred42 a dit:


Et en passant, on écrit “parce que” en 2 mots, pas 3… :cap:




C’est quoi cette langue de merde, je parie que ça a été décidé par les mêmes qui veulent au temps pour moi …




Agglutination partielle de la locution constituée de par et de ce que, et qui a remplacé l’ancien français pour ce que, qui a même sens.




Encore une simplification d’orthographe, bientôt je vais devoir écrire onion.



(et non, le fait que c’est utilisé depuis avant 1500 n’est pas une excuse !)



Merci pour l’info, aucune idée de si je vais pouvoir adapter ma façon d’écrire par contre.


Tu as raté ton lien.



En tout cas, tu m’a appris le mot agglutination. :D


fred42

Tu as raté ton lien.



En tout cas, tu m’a appris le mot agglutination. :D


FFS, pas ma journée … : https://fr.wiktionary.org/wiki/parce_que


En quoi le choix d’une société privée de faire de la modération a priori de son contenu pose problème ?



Si le choix de cette société ne vous plait pas, n’y allez pas. Elle n’est en rien garante de la liberté d’expression universelle.



Le contenu de FranceSoir ne me plait pas, je n’y vais pas. A l’inverse si les “infos” de ce site vous plaisent, vous y aller.



SebGF a dit:


Oui, le comportement sectaire se constate quotidiennement ici et c’est vraiment désolant. Il faut sortir de sa zone de confort et accepter que des personnes peuvent avoir une opinion différente sans pour autant chercher à les étrangler.



L’entre-soit, c’est nul et ça engendre des gamins consanguins.




Quelle vision naive de la société actuelle.



Prend un site proposant des échanges entre internaute, ne mets aucune limite, aucune modération et au bout de quelques mois seuls les extrémistes y posteront quelque chose.
Les autres n’ayant pas envie de se “battre” contre des moulins à vent passeront leur chemin.



Il est donc tout à fait normal qu’une société privée voulant gagner de l’argent, mettent en place une modération pour ne pas faire fuir ses clients potentiels.


Oui, je suis un grand naïf, ça n’est pas une nouvelle en soit. Tu peux même dire bisounours si ça te fait plaisir, je ne t’en empêcherai pas. Tout comme ça ne m’empêchera pas d’estimer que chercher à bloquer en amont de la publication un contenu pour quelque raison que ce soit est malsain à mes yeux. A moins que la plateforme ne publie clairement les contenus qu’elle estime interdits en plus de ceux que la loi l’oblige à retirer, je n’aime pas ce principe et je l’ai toujours détesté. Ca aussi ce n’est pas une nouveauté.



Par ailleurs, je n’ai à aucun moment suggéré qu’il fallait une absence de modération. A quel moment mon message le laisse-t-il entendre ? Je pense avoir déploré suffisamment souvent ici l’absence de celle-ci justement.



Après, si la société privée veut créer une énième bulle communautaire, c’est effectivement son droit. Et c’est aussi mon droit d’exprimer une opinion concernant celle-ci. Sous entendre “si ça te plait pas n’y va pas” n’est pas une réponse acceptable de mon point de vue, c’est plutôt une excuse pour se voiler la face et rester dans sa zone de confort. De mon point de vue, l’effet de bulle est une catastrophe en matière d’ouverture d’esprit et je pense qu’une modération / approbation / validation / mettez-y le terme qui vous plait (notez que j’ai volontairement omis le terme censure puisqu’elle est, en général, d’origine étatique) en amont n’est pas une chose saine pour une communauté.



Encore ce dispositif ne me choque pas particulièrement pour les avis d’un site de e-commerce (surtout qu’il me semble qu’il y a une obligation légale pour modérer les faux avis) car cela n’a pas vocation à être un forum. Mais dans le cas d’une plateforme qui propose un service de user-generated content, cela me perturbe un peu plus. Et ça la rend plus proche d’un éditeur que d’un hébergeur pour le coup si elle valide un contenu en amont.


SebGF

Oui, je suis un grand naïf, ça n’est pas une nouvelle en soit. Tu peux même dire bisounours si ça te fait plaisir, je ne t’en empêcherai pas. Tout comme ça ne m’empêchera pas d’estimer que chercher à bloquer en amont de la publication un contenu pour quelque raison que ce soit est malsain à mes yeux. A moins que la plateforme ne publie clairement les contenus qu’elle estime interdits en plus de ceux que la loi l’oblige à retirer, je n’aime pas ce principe et je l’ai toujours détesté. Ca aussi ce n’est pas une nouveauté.



Par ailleurs, je n’ai à aucun moment suggéré qu’il fallait une absence de modération. A quel moment mon message le laisse-t-il entendre ? Je pense avoir déploré suffisamment souvent ici l’absence de celle-ci justement.



Après, si la société privée veut créer une énième bulle communautaire, c’est effectivement son droit. Et c’est aussi mon droit d’exprimer une opinion concernant celle-ci. Sous entendre “si ça te plait pas n’y va pas” n’est pas une réponse acceptable de mon point de vue, c’est plutôt une excuse pour se voiler la face et rester dans sa zone de confort. De mon point de vue, l’effet de bulle est une catastrophe en matière d’ouverture d’esprit et je pense qu’une modération / approbation / validation / mettez-y le terme qui vous plait (notez que j’ai volontairement omis le terme censure puisqu’elle est, en général, d’origine étatique) en amont n’est pas une chose saine pour une communauté.



Encore ce dispositif ne me choque pas particulièrement pour les avis d’un site de e-commerce (surtout qu’il me semble qu’il y a une obligation légale pour modérer les faux avis) car cela n’a pas vocation à être un forum. Mais dans le cas d’une plateforme qui propose un service de user-generated content, cela me perturbe un peu plus. Et ça la rend plus proche d’un éditeur que d’un hébergeur pour le coup si elle valide un contenu en amont.


Est-ce que tu te rends compte que ton message est contradictoire ?



Je vais te donner 2 exemples:
1- Eurosport: zone de commentaires ouvertes sans (ou avec peu) de modération, résultat les ultras et autres fanboys y venaient pour s’écharper. An bout de quelques temps, 95% des échanges venaient d’eux.
Résultat: plus de commentaires possibles sur le site



2- Mon quotidien régional: zone de commentaires ouvertes avec peu de modération : 95% des commentaires venaient d’extrémistes politiques.
Resultat: les commentaires sous les news politiques sont fermés et il n’y quasiment plus aucun commentaire sur le reste des publications.



Ce que tu appelles une zone de “confort” provient du fait que dans une plateforme de divertissement les gens n’ont pas envie de se coltiner des podcasts et autres publications sur la platitude de la terre, de la nocivité des vaccins (et de la fin du monde associée), du fait que tout est de la faute de * (mettez le nom qui vous plait), etc.


carbier

Est-ce que tu te rends compte que ton message est contradictoire ?



Je vais te donner 2 exemples:
1- Eurosport: zone de commentaires ouvertes sans (ou avec peu) de modération, résultat les ultras et autres fanboys y venaient pour s’écharper. An bout de quelques temps, 95% des échanges venaient d’eux.
Résultat: plus de commentaires possibles sur le site



2- Mon quotidien régional: zone de commentaires ouvertes avec peu de modération : 95% des commentaires venaient d’extrémistes politiques.
Resultat: les commentaires sous les news politiques sont fermés et il n’y quasiment plus aucun commentaire sur le reste des publications.



Ce que tu appelles une zone de “confort” provient du fait que dans une plateforme de divertissement les gens n’ont pas envie de se coltiner des podcasts et autres publications sur la platitude de la terre, de la nocivité des vaccins (et de la fin du monde associée), du fait que tout est de la faute de * (mettez le nom qui vous plait), etc.


C’est toi qui est contradictoire. Tu parles de commentaires suite à une publication dans tes exemples et lui de publication, puis ensuite tu utilises ça comme argument pour aussi filtrer les publications alors que ce sont deux choses très différentes.



Je ne connais pas vraiment Spotify et son offre de podcast, mais je pense que le terme se coltiner est inapproprié : ça m’étonnerait qu’ils imposent à leurs utilisateurs de regarder ce qu’ils n’apprécient pas. Et s’il ont des algos pour faire des suggestions, pas de problème pour qu’ils évitent de mettre en avant ce que détecterait leur logiciel racheté.



Lui comme moi sommes d’accord pour qu’il y ait une modération dans les commentaires et sommes plutôt contre le filtrage des publications.


carbier

Est-ce que tu te rends compte que ton message est contradictoire ?



Je vais te donner 2 exemples:
1- Eurosport: zone de commentaires ouvertes sans (ou avec peu) de modération, résultat les ultras et autres fanboys y venaient pour s’écharper. An bout de quelques temps, 95% des échanges venaient d’eux.
Résultat: plus de commentaires possibles sur le site



2- Mon quotidien régional: zone de commentaires ouvertes avec peu de modération : 95% des commentaires venaient d’extrémistes politiques.
Resultat: les commentaires sous les news politiques sont fermés et il n’y quasiment plus aucun commentaire sur le reste des publications.



Ce que tu appelles une zone de “confort” provient du fait que dans une plateforme de divertissement les gens n’ont pas envie de se coltiner des podcasts et autres publications sur la platitude de la terre, de la nocivité des vaccins (et de la fin du monde associée), du fait que tout est de la faute de * (mettez le nom qui vous plait), etc.


Peux-tu me dire à quel moment je dis ne pas vouloir de modération ?



Je pense avoir été clair à deux reprises : je n’aime pas la notion de modération à priori et avant publication du contenu (en mettant un bémol sur la notion d’avis sur les sites de e-commerce, la finalité étant différente). Surtout basée sur le critère de potentiellement comme indiqué dans le communiqué.



Message #3 :




Honnêtement, je n’aime pas du tout la tournure de la phrase soulignée. Ils entendent donc faire de la modération à priori sur les podcasts (…)




Message #13




Si tu dis quelque chose qui ne va pas dans le sens de ce que la bulle pense, tu seras alors condamné par sa vindicte. Et ici dans le cas présent, à priori.




Message #26 :




Tout comme ça ne m’empêchera pas d’estimer que chercher à bloquer en amont de la publication un contenu pour quelque raison que ce soit est malsain à mes yeux.




La modération ultérieure comme il est pratiqué ici, et dont j’ai déploré plusieurs fois l’absence, ne m’a jamais dérangé du moment que les règles de la communauté sont clairement établies et que le motif de modération est explicité. J’ai moi-même été modérateur de forums par le passé incluant d’assez grosses communautés.



Je repose donc la question : à quel moment ai-je dit qu’il ne fallait pas de modération ou très peu ? Peux-tu me citer l’exact passage qui le laisse entendre ? Il n’est pas impossible que je me sois mal exprimé.



Je n’aime pas le risque de dérive que peut engendrer une interdiction de publication de contenus en amont (désolé d’insister sur la mise en gras, mais j’ai l’impression que ce mot n’est jamais lu ou compris) car l’effet de bulle a déjà été démontré à plusieurs reprises. Ce n’est pas en livrant en permanence du contenu qui va dans le sens d’une ligne éditoriale que le public peut se forger un esprit critique. Au contraire, ça provoque même l’effet inverse de personnes qui se mettent à camper strictement sur leurs positions et refusent tout discours s’éloignant de leur modèle de pensée. Ce qui engendre par extension des comportements violents et agressifs, puisque l’interlocuteur n’a pas été habitué à gérer la frustration que peu engendrer le fait de voir son modèle de pensée froissé. Voilà ce que j’entends par “zone de confort”. On peut le voir ici même où dès qu’un avis divergent est donné, la personne se fait plus attaquer sur elle-même que ses propos.



Là où un contenu modéré à posteriori peut avoir eu le temps d’être lu, récupéré, interprété, potentiellement faire du mal oui, mais aussi servir à décoder son mode de construction (j’ai regardé la liste des contenus donnés en lien par misocard justement). Certes tout le monde ne le fera pas, surtout quand on est en mode consommation de contenu, mais c’est fou de voir combien il est intéressant de décrypter justement ces messages pour en comprendre les rouages. Ce qui permet de les repérer beaucoup plus facilement et donc d’éviter de tomber dans leur piège.



En gros, de mon point de vue, ce n’est pas en évitant de se confronter à du contenu nuisible qu’on apprendra à se défendre contre lui. Comme on dit régulièrement : “il suffirait que les gens n’achètent pas pour que ça ne se vende pas”, l’idée ici est à peu près la même : si tu apprends à lire un contenu haineux / complotiste / misogyne / etc et à en connaître les rouages (car ils ne sont généralement pas bien novateurs), tu apprends à t’en protéger par toi-même. Si tu attends que quelqu’un le fasse en amont pour toi, je crains que ce ne soit pas le plus efficace pour développer son esprit critique.



Un détail à ne pas oublier : si une plateforme supprime ces contenus (en amont ou aval, pas de distinction dans le cas présent), ils seront publiés ailleurs. Que se passe-t-il si quelqu’un qui n’est pas habitué à les lire/écouter tombe dessus ? Cette personne saura-t-elle comprendre le contenu ? Le complostisme, pour prendre cet exemple, ça cartonne parce que ça propose des idées simplistes et très séduisantes qui se résument en 240 caractères. Si la personne n’a pas appris à comprendre la mécanique de ce genre d’outil de manipulation, elle va tomber dedans à pieds joints.


SebGF

Peux-tu me dire à quel moment je dis ne pas vouloir de modération ?



Je pense avoir été clair à deux reprises : je n’aime pas la notion de modération à priori et avant publication du contenu (en mettant un bémol sur la notion d’avis sur les sites de e-commerce, la finalité étant différente). Surtout basée sur le critère de potentiellement comme indiqué dans le communiqué.



Message #3 :




Honnêtement, je n’aime pas du tout la tournure de la phrase soulignée. Ils entendent donc faire de la modération à priori sur les podcasts (…)




Message #13




Si tu dis quelque chose qui ne va pas dans le sens de ce que la bulle pense, tu seras alors condamné par sa vindicte. Et ici dans le cas présent, à priori.




Message #26 :




Tout comme ça ne m’empêchera pas d’estimer que chercher à bloquer en amont de la publication un contenu pour quelque raison que ce soit est malsain à mes yeux.




La modération ultérieure comme il est pratiqué ici, et dont j’ai déploré plusieurs fois l’absence, ne m’a jamais dérangé du moment que les règles de la communauté sont clairement établies et que le motif de modération est explicité. J’ai moi-même été modérateur de forums par le passé incluant d’assez grosses communautés.



Je repose donc la question : à quel moment ai-je dit qu’il ne fallait pas de modération ou très peu ? Peux-tu me citer l’exact passage qui le laisse entendre ? Il n’est pas impossible que je me sois mal exprimé.



Je n’aime pas le risque de dérive que peut engendrer une interdiction de publication de contenus en amont (désolé d’insister sur la mise en gras, mais j’ai l’impression que ce mot n’est jamais lu ou compris) car l’effet de bulle a déjà été démontré à plusieurs reprises. Ce n’est pas en livrant en permanence du contenu qui va dans le sens d’une ligne éditoriale que le public peut se forger un esprit critique. Au contraire, ça provoque même l’effet inverse de personnes qui se mettent à camper strictement sur leurs positions et refusent tout discours s’éloignant de leur modèle de pensée. Ce qui engendre par extension des comportements violents et agressifs, puisque l’interlocuteur n’a pas été habitué à gérer la frustration que peu engendrer le fait de voir son modèle de pensée froissé. Voilà ce que j’entends par “zone de confort”. On peut le voir ici même où dès qu’un avis divergent est donné, la personne se fait plus attaquer sur elle-même que ses propos.



Là où un contenu modéré à posteriori peut avoir eu le temps d’être lu, récupéré, interprété, potentiellement faire du mal oui, mais aussi servir à décoder son mode de construction (j’ai regardé la liste des contenus donnés en lien par misocard justement). Certes tout le monde ne le fera pas, surtout quand on est en mode consommation de contenu, mais c’est fou de voir combien il est intéressant de décrypter justement ces messages pour en comprendre les rouages. Ce qui permet de les repérer beaucoup plus facilement et donc d’éviter de tomber dans leur piège.



En gros, de mon point de vue, ce n’est pas en évitant de se confronter à du contenu nuisible qu’on apprendra à se défendre contre lui. Comme on dit régulièrement : “il suffirait que les gens n’achètent pas pour que ça ne se vende pas”, l’idée ici est à peu près la même : si tu apprends à lire un contenu haineux / complotiste / misogyne / etc et à en connaître les rouages (car ils ne sont généralement pas bien novateurs), tu apprends à t’en protéger par toi-même. Si tu attends que quelqu’un le fasse en amont pour toi, je crains que ce ne soit pas le plus efficace pour développer son esprit critique.



Un détail à ne pas oublier : si une plateforme supprime ces contenus (en amont ou aval, pas de distinction dans le cas présent), ils seront publiés ailleurs. Que se passe-t-il si quelqu’un qui n’est pas habitué à les lire/écouter tombe dessus ? Cette personne saura-t-elle comprendre le contenu ? Le complostisme, pour prendre cet exemple, ça cartonne parce que ça propose des idées simplistes et très séduisantes qui se résument en 240 caractères. Si la personne n’a pas appris à comprendre la mécanique de ce genre d’outil de manipulation, elle va tomber dedans à pieds joints.


Je vais te donner un autre exemple:



LeMonde: quand tu publies un commentaire, tu l’envoies et la modération se fait a priori (avant publication).
Je ne sais pas comme cela fonctionne (robot, humain ou les 2) mais le fait est que le résultat est plutôt bon: tous les avis sont présents (enfin le centre-gauche plus que les autres mais les autres le sont aussi) et les échanges sont forcément plus posé et surtout plus didactique.
On peut toujours lire que Poutine est une victime, que Raoult est un incompris et que Macron est un incapable. Ce dernier point étant même beaucoup plus répandu que les 2 premiers.



SebGF a dit:


Ce n’est pas en livrant en permanence du contenu qui va dans le sens d’une ligne éditoriale que le public peut se forger un esprit critique. Au contraire, ça provoque même l’effet inverse de personnes qui se mettent à camper strictement sur leurs positions et refusent tout discours s’éloignant de leur modèle de pensée. Ce qui engendre par extension des comportements violents et agressifs, puisque l’interlocuteur n’a pas été habitué à gérer la frustration que peu engendrer le fait de voir son modèle de pensée froissé. Voilà ce que j’entends par “zone de confort”. On peut le voir ici même où dès qu’un avis divergent est donné, la personne se fait plus attaquer sur elle-même que ses propos.




Parceque tu crois que tout ce que tu énonces est lié à la modération ?
Je n’ai encore jamais vu un extrémiste réfléchir après une démonstration logique, mais passons.



Sinon, désolé de te le dire, mais tu es en train de redécouvrir le principe de la vie réelle: ton cercle de proches, ceux avec qui tu discutes le plus, est constitué de gens avec qui tu te sens plus ou moins bien.
Je connais peu de gens qui, pendant le peu de temps libre qu’ils ont, adorent se prendre la tête en permanence.
Généralement quand tu refais le monde, ce n’est pas avec quelqu’un qui est complétement en dehors de ta zone.



Et pour finir, il faudrait demander à un vrai psy, mais je n’ai pas l’impression que les gens évoluent tant que cela. Nous disposons tous d’une nature profonde qui nous définit.
J’ai du mal à croire qu’un beauf, xénophobe, homophobe et misogyne puisse évoluer vers quelqu’un de plus “ouvert”.


Sondage NXI: a quelle équipe appartenez-vous ?




  • Team A: safe place
    si un commentaire me met mal à l’aise, personne ne doit pouvoir le voir.



  • Team B. freedom of speech
    même si un commentaire me met mal à l’aise, tout le monde doit pouvoir le voir.



  • Team C: personal bubble
    je ne vois que les commentaires qui ne me mettent pas mal à l’aise.



c’est quoi mal à l’aise ?



Pour moi un commentaire doit être respectueux et idéalement constructif.
Si ça répond à ces critères je pourrai avoir une discussion sur un peu près n’importe quoi.



J’ai des problèmes avec certains utilisateurs qui ne cherchent qu’a faire de la propagande ou qui sont irrespectueux. (il y en a un qui est arrivé fin septembre, j’ai tenu 9 jours avant de le filtrer)



En sois j’aime bien le principe du filtre de NXI, je préfèrerai juste qu’il soit plus facilement visible car certains ne savent pas que ça existe (par exemple à coté du pseudo).



Ce n’est juste pas possible à mettre à grande échelle.






Du coup tes choix sont un peu orientés, dans l’idée j’oscille entre A et C (A pour les contenus exceptionnellement problématiques, C pour les gens avec qui il est juste impossible de discuter, B pour le reste)



Team D : On vire tous les commentaires que les gens oseraient pas faire en face de moi sans témoins ;)


Juste pour rappel il y a une modération sur NXi.



Donc c’est Team A pour tout le monde



carbier a dit:


Parceque tu crois que tout ce que tu énonces est lié à la modération ? Je n’ai encore jamais vu un extrémiste réfléchir après une démonstration logique, mais passons.




Je n’ai jamais dit ça non plus…



J’ai bien parlé à plusieurs reprises de savoir lire, comprendre, et se défendre d’un contenu dit nuisible. Pas de se défendre de son auteur ni d’argumenter avec lui (là dessus je suis d’accord avec toi, dans la majorité des cas c’est une perte de temps). Surtout que pour le cas de Spotify où, de ma compréhension, c’est pas des commentaires mais des contenus (podcasts) qui seront modérés à priori sous prétexte qu’ils soient potentiellement nuisibles.



Je recite le passage qui m’a fait tiqué dans le communiqué :




The combination of tools and expert insights is Kinzen’s unique strength that we see as essential to identifying emerging abuse trends in markets and moderating potentially dangerous content at scale




Personnellement, j’appelle ça de la présomption de culpabilité. Oui c’est du privé, etc, etc, etc, mais le principe reste le même et j’aime pas ça. Encore plus quand c’est automatisé, la modération robotisée on connaît tous les effets de bord qu’elle peut engendrer.



Mon idée ne visait pas ceux à l’origine des propos extrémistes mais ceux qui sont amenés à les recevoir. Je ne me fais pas d’illusions, il existe, et il existera toujours des comportements et propos qui ne sont pas tolérables par rapport à nos critères sociaux. Il suffit chercher rapidement “fediblock” sur un moteur de recherche pour se rendre compte de ce qu’on peut trouver.



Mais à nouveau, apprendre à lire et comprendre le mécanisme de pensée et de manipulation de ces contenus permet de s’en protéger. Cependant, si on y est jamais confronté, on peut en devenir victime en un clin d’oeil. Je ne peux que recommander les travaux du blog Hacking Social qui explique les nombreuses techniques de manipulations mentales via la recherche psychologie et sociale et a fait dernièrement un très gros sujet sur le fascisme (mot tellement utilisé à toutes les sauces que de nos jours il veut dire : “qui ne pense pas comme moi”) très intéressant.



C’est aussi une raison pour laquelle je n’utilise pas les filtres ici. Et sur Mastodon, le seul filtre que j’avais mis c’était à l’époque où “wordle” et tous ses clones étaient à la mode car ça floodait trop et je perdais le fil. Après, si des gens veulent utiliser des filtres pour ne pas voir de contenu particulier, libre à eux également. Même si je n’approuve pas spécialement l’idée, cela reste moins intrusif qu’une entité centralisée qui le décide pour tous.



Je ne savais pas que Le Monde modérait les commentaires en amont, je ne lis pas ce journal il faut dire, d’où mon ignorance de ce fait. Ben pour le coup, je ne trouve pas non plus que ce soit la meilleure des approches. Quelle est garantie qu’un propos convenable ne soit pas publié pour autant ? Tu donnes deux exemples, mais quand tu n’as pas la possibilité de vérifier ce qui a été soumis versus ce qui est publié, il devient difficile de savoir si la modération est objective ou non. A moins qu’ils le publient de rapports de transparence ?



misocard a dit:


il y en a un qui est arrivé fin septembre, j’ai tenu 9 jours avant de le filtrer




Si tu savais de quel pays il vient. :fumer:



carbier a dit:


Je vais te donner un autre exemple:



LeMonde: quand tu publies un commentaire, tu l’envoies et la modération se fait a priori (avant publication). Je ne sais pas comme cela fonctionne (robot, humain ou les 2) mais le fait est que le résultat est plutôt bon: tous les avis sont présents.




De la diversité dans les commentaires du Monde ? Faut vraiment que j’aille voir ça.



En même temps, comme il faut être abonné pour commenter, ce n’est pas très étonnant ; les personnes qui achètent un journal d’un bord politique différent du leur ne sont pas pléthore.


Fermer